学习素描矩阵的快速,准确的低级别近似(LRA)的注意力越来越多。最近,Bartlett,Indyk和Wagner(Colt 2022)提出了针对基于学习的LRA的概括。具体来说,对于使用$ m \ times n $学习的级别$ k $近似,每列中$ s $ non-Zeros的素描矩阵,他们证明了$ \ tilde {\ tilde {\ mathrm {o}}(nsm)$ \ emph {fat Shattering Dimension}($ \ tilde {\ mathrm {o}} $隐藏对数因素)。我们以他们的工作为基础,并做出了两项贡献。 1.我们提出了一个更好的$ \ tilde {\ mathrm {o}}(nsk)$ bund($ k \ le m $)。在获得界限的途径中,我们给出一个低复杂性\ emph {goldberg - jerrum算法},用于计算伪内矩阵,这将具有独立的关注。 2.我们可以缓解先前研究的假设,即素描矩阵的稀疏模式是固定的。我们证明,非二方的学习位置仅将脂肪破碎的维度增加到$ {\ mathrm {o}}(ns \ log n)$。此外,实验证实了学习稀疏模式的实际好处。
translated by 谷歌翻译
确定点过程(DPP)的最大后验(MAP)推断对于在许多机器学习应用中选择多种项目至关重要。尽管DPP地图推断是NP-HARD,但贪婪的算法通常会发现高质量的解决方案,许多研究人员已经研究了其有效的实施。一种经典且实用的方法是懒惰的贪婪算法,适用于一般的下函数最大化,而基于Cholesky的最新快速贪婪算法对于DPP MAP推断更有效。本文介绍了如何结合“懒惰”和“快速”的想法,这些思想在文献中被认为是不兼容的。我们懒惰且快速的贪婪算法与当前最好的算法几乎具有相同的时间复杂性,并且在实践中运行速度更快。 “懒惰 +快速”的想法可扩展到其他贪婪型算法。我们还为无约束的DPP地图推断提供了双贪婪算法的快速版本。实验验证了我们加速思想的有效性。
translated by 谷歌翻译